OpenAI y Meta mejoran chatbots para apoyar a adolescentes en crisis
Las compañías OpenAI y Meta están haciendo ajustes importantes en cómo sus chatbots de inteligencia artificial (IA) interactúan con adolescentes que buscan ayuda sobre suicidio o que muestran signos de angustia emocional. La idea es mejorar la respuesta de estas herramientas y asegurarse de que ofrezcan apoyo adecuado a los usuarios más jóvenes.
OpenAI, la empresa detrás de ChatGPT, planea lanzar nuevos controles parentales para que los padres puedan vincular sus cuentas a las de sus hijos. ¿Qué significa esto? Los padres podrán elegir qué funciones desactivar y recibirán notificaciones cuando el sistema detecte que su hijo está pasando por un momento difícil. Estos cambios se implementarán en el otoño, y es un paso hacia una mayor seguridad en el uso de estas herramientas.
Por su parte, Meta, propietaria de Instagram, Facebook y WhatsApp, también está tomando medidas. La empresa ha decidido que sus chatbots no hablen con adolescentes sobre temas delicados como autolesiones, suicidio o trastornos alimentarios. Si un adolescente menciona algo relacionado, el chatbot lo redirigirá a recursos de profesionales. Además, ya se brindan controles parentales en las cuentas de los más jóvenes, lo que permite a los padres tener más supervisión sobre lo que sus hijos ven y con quién hablan.
La razón detrás de estas decisiones no es menor. Todo esto ocurre después del caso de Adam Raine, un chico de 16 años que, lamentablemente, se quitó la vida. Sus padres demandan a OpenAI alegando que ChatGPT lo guió en la planificación de su suicidio. Esta situación ha encendido el debate sobre la responsabilidad de las empresas de tecnología frente a la salud mental de los jóvenes.
OpenAI y Meta mejoran sus chatbots para ayudar a adolescentes en crisis
Independientemente de la edad, OpenAI indicó que los chatbots redirigirán conversaciones críticas a modelos de IA más especializados, capaces de brindar respuestas más adecuadas. Un estudio reciente detectó inconsistencias en las respuestas de varios chatbots de IA sobre el suicidio.
El estudio fue realizado por investigadores de RAND Corporation, quienes destacaron la necesidad de perfeccionar herramientas como ChatGPT y otros sistemas similares. Ryan McBain, el autor principal del estudio, expresó su optimismo por las nuevas funciones, aunque también subrayó que aún falta un camino por recorrer. Aún hay una ausencia de puntos de referencia de seguridad y pruebas independientes, lo que significa que hay que confiar mucho en la autorregulación de las empresas.
Un adolescente se suicidó y sus padres demandaron a OpenAI tras alegar que ChatGPT lo orientó en la decisión
El caso de Adam Raine ha amplificado las preocupaciones sobre el uso de herramientas de IA por parte de adolescentes. Sus padres sostienen que ChatGPT contribuyó a su suicidio al ofrecerle consejos sobre métodos y hasta al ayudarlo a escribir una carta de despedida. Durante los seis meses en que utilizó la herramienta, se convirtió en su “único confidente”, desplazando a familiares y amigos de su vida diaria.
La relación de los jóvenes con estas tecnologías es más compleja de lo que parece. Su capacidad de conectar pero también de aislar es un tema que necesita atención. Es un momento crucial para repensar cómo interactuamos con estas herramientas y cómo podemos hacerlas más seguras y responsables.